De snelle ontwikkelingen rond kunstmatige intelligentie (AI) zorgen ervoor dat de samenleving moeite heeft om bij te benen wat de technologie allemaal vermag. Dat leidt tot een gebrek aan kennis. Het is immers ongelooflijk lastig op telkens te weten welke nieuwe foefjes een tool als ChatGPT nu weer kan toepassen, als er vrijwel wekelijks iets lijkt te veranderen. 

Het wordt daarom steeds belangrijker dat we kunnen vertrouwen op AI en vooral op wat het ons voorschotelt. Daar komt het ethische vraagstuk om de hoek kijken: hoe bouwen en werken we op een ethische manier met artificial intelligence?

Dit levert vooral bij sommige grotere AI-modellen, zoals OpenAI’s GPT-4 en Google’s Bard, problemen op rond transparantie. Het is niet altijd duidelijk hoe antwoorden precies worden gegenereerd. 

Maar ook risico’s zoals vooringenomenheid bij de antwoorden die AI produceert, vormen een probleem dat eigenlijk niet op te lossen lijkt. En dan hebben we het nog niet eens gehad over ‘hallucineren’, ofwel de neiging van AI-modellen om soms antwoorden te verzinnen die niet stroken met de werkelijkheid. Generatieve AI kan immers nog steeds geen feit van fictie onderscheiden.

Met al deze problemen is de vraag hoe we ethisch met kunstmatige intelligentie kunnen omgaan, actueler dan ooit. Om daar een antwoord op te kunnen geven, moet je eigenlijk eerst helder hebben wat er precies met "ethisch" wordt bedoeld.

"Om te beginnen moet je een aantal basisprincipes vastleggen", stelt AI-expert Reggie Townsend van softwarebedrijf SAS. Hij is lid van het National Artificial Intelligence Advisory Committee (NAIAC) in de VS, een adviesorgaan dat de Amerikaanse president adviseert over AI.

"Je moet ook een manier vinden om te bepalen welke risico's je bereid bent te nemen. En je moet ervoor zorgen dat iedereen in een bedrijf een bepaald kennisniveau heeft over het omgaan met artificial intelligence", zegt Townsend. "Pas dan kun je bepalen hoe je AI gaat inzetten en gebruiken. Bij SAS werken we al langer op die manier en daarom denken we ook dat het werkt voor anderen.”

Paula Goldman, hoofd ethiek voor artificial intelligence bij softwarebedrijf Salesforce, hanteert een vergelijkbare aanpak. "We hebben een set van principes in het leven geroepen. Daarbij is het team dat over toegankelijkheid gaat ook betrokken geweest. Je wilt dat een product voor iedereen goed werkt."

“Voor generatieve AI hebben we een set principes gepubliceerd die voor ons leidend zijn. Dat gaat het om zaken als nauwkeurigheid, veiligheid, eerlijkheid, empowerment en duurzaamheid”, legt Goldman uit. "Dat is de basis van onze AI-producten, zowel wat betreft de input als de output.”

Principes zijn een stap in de goede richting, maar er moet meer gebeuren

De benadering van Salesforce en SAS wordt ook door andere AI-bedrijven toegepast. Anthropic, de maker van AI-chatbot Claude, werkt bijvoorbeeld met een soortgelijke opzet.

Elk antwoord dat Claude genereert, moet voldoen aan bepaalde principes die Anthropic heeft geformuleerd, ook wel de ‘grondwet’ genoemd. Het idee hiervan is dat de antwoorden van Claude hierdoor niet alleen betrouwbaarder worden, maar ook dat het AI-model minder snel uit de band zal springen en bijvoorbeeld racistische antwoorden geeft.

Maar hoe je het ook wendt of keert, werken op basis van principes is niet genoeg om op AI te kunnen vertrouwen. Problemen zoals deep fakes, vooringenomenheid en hallucinaties moeten uiteindelijk door mensen met verstand van zaken worden herkend. 

“Er moet altijd een mens aan te pas komen. Iemand die ervoor zorgt dat de resultaten deskundig worden beoordeeld, die een oordeel kan geven en die inlevingsvermogen heeft. Die toets moet door een mens worden gedaan, voordat de eindgebruiker ermee te maken krijgt", zegt Goldman.

Daarmee doelt de AI-expert van Salesforce op iets dat ‘human in the loop’ wordt genoemd. Het idee dat er altijd een mens tussen de AI en de eindgebruiker zit die foutieve, misleidende of gevoelige antwoorden verwijdert of aanpast, voordat de klant ze onder ogen krijgt.

Townsend ziet dit nog breder. Hij is van mening dat mensen in alle gevallen de belangrijkste spelers in het verhaal zijn. "Vertrouwen moet de technologie omvatten, maar het moet absoluut ook de mensen en de processen omvatten. Dus wij als makers en gebruikers moeten onze menselijke intelligentie gebruiken bij de omgang met AI", zegt Townsend, "Daarom is het gesprek over AI-geletterdheid zo belangrijk. Als wereldburgers moeten we onze vaardigheden vergroten.”

"Het is niet zo dat we allemaal datawetenschappers moeten worden"', geeft Townsend aan. "Maar we hebben ook allemaal enige basiskennis over elektriciteit, terwijl niet iedereen ingenieur is."

Vertrouwen in AI hangt af van makers én gebruikers

Uiteindelijk hangt vertrouwen in AI nauw samen met het vertrouwen in de mens. Hoe goed de technologie ook is of kan worden: de mensen die ermee werken en eraan bouwen zullen altijd het belangrijkste element zijn.

Waar de bouwers de verantwoordelijkheid hebben om ervoor te zorgen dat AI zo goed en eerlijk mogelijk werkt, is het aan de eindgebruiker om te weten waar hij of zij mee werkt. En om op basis daarvan te bepalen of datgene wat een AI-tool produceert, te vertrouwen is.

"Veel toepassingen van artificial intelligence werken met voorspellende en op regels gebaseerde modellen, die we kunnen interpreteren en uitleggen. We kunnen de datasets laten zien waarop het is gebaseerd. We kunnen laten zien of die gegevens bevooroordeeld zijn of niet, voor wie. Dat bestaat allemaal", legt Townsend uit. 

“Dus het gaat er niet om dat we de technologie moeten vertrouwen, want dat kunnen we objectief doen. Het gaat om het vertrouwen in de processen die de inzet van de technologie ondersteunen. En dat de mensen daarnaar handelen. Als we het over vertrouwen hebben, kunnen we het niet alleen over de technologie hebben, toch? Ik denk dat we rekening moeten houden met de waarden van individuen en bedrijven, en hoe zij de technologie toepassen.”

LEES OOK: Duiven lossen problemen op dezelfde manier op als AI-modellen, blijkt uit onderzoek